Deepnude e chatbot “empatici”: l’intelligenza artificiale è la nuova frontiera della pedopornografia


L'intelligenza artificiale è la nuova frontiera dei pedofili
La nuova frontiera della pedopornografia è l’intelligenza artificiale. A denunciarlo è don Fortunato Di Noto, sacerdote e fondatore dell’Associazione Meter ETS, che da oltre trent’anni lotta contro gli abusi sui minori. Due giorni fa, a Roma, l’Associazione ha presentato il primo dossier italiano interamente dedicato all’impatto dell’AI sugli abusi online: chatbot, deepfake e pedopornografia virtuale.
Il dossier di MeterCon il report, don Di Noto e l’Associazione offrono il loro contributo anche al lavoro di Papa Leone XIV, che ha annunciato un’enciclica sull’Intelligenza Artificiale. Il rischio – sottolinea il dossier – è la normalizzazione dell’abuso: se l’immagine è generata al computer, dunque le vittime non sono fisiche, allora non è più un crimine. E invece lo è. Il problema è come individuarlo e perseguirlo penalmente. La legge italiana, ad oggi, equipara la pedopornografia virtuale a quella reale. Ma – sottolinea Di Noto – manca l’efficacia: le forze dell’ordine faticano a intervenire in tempo e il materiale resta in circolazione. Servono strumenti più incisivi, aggiornamento delle norme e formazione costante: “Un passo cruciale è la collaborazione tra governi e aziende tecnologiche per sviluppare un’IA etica in grado di prevenire e bloccare la produzione di materiale pedopornografico e deepnude”.
La minaccia, denuncia l’Associazione, è duplice: la velocità con cui questi contenuti vengono prodotti, crittografati e condivisi, e l’assenza di strumenti normativi adeguati. Le piattaforme più utilizzate per la diffusione di materiale sono Signal (8 casi su 10), Telegram, Viber, Whatsapp e Instagram. Canali spesso privati, cifrati, difficili da monitorare e bloccare.
Come agisce l’intelligenza artificiale al servizio dell’abuso?Ma come agisce esattamente l’Intelligenza Artificiale al servizio dell’abuso? Attraverso i chatbot: programmi capaci di simulare conversazioni complesse, con cui chi adesca non deve nemmeno più esporsi né sforzarsi. L’adescamento, infatti, è curato, sin dal primo approccio, proprio da questi programmi, capaci di riconoscere parole chiave, rispondere in modo empatico e preparare il terreno allo scambio di materiale intimo. Il passo successivo è la manipolazione delle immagini: partendo da foto scattate in contesti quotidiani – sport, scuola, giochi – l’AI genera deepnude, immagini o video falsi ma realistici in cui il minore appare nudo o sessualizzato. Circa il 10% dei gruppi monitorati online ha chiesto la produzione di deepfake, mentre il 20% li genera a partire da immagini innocenti.
Immagini false, sì, ma con conseguenze reali. I dati dell’Osservatorio Mondiale di Contrasto alla Pedofilia (OSMOCOP), istituito dalla stessa Meter, sono allarmanti: solo nei primi sei mesi del 2025, sono stati quasi 3.000 i minori finiti all’interno di contenuti deepfake pedopornografici. Un problema urgente. Con il Dossier, Mater vuole "denunciare e sollevare una forte presa di posizione della società, della politica e della chiesa”. Più del 60% degli adolescenti conosce i deepnude, ma più della metà non è in grado di distinguerli da un contenuto reale. Il dato più significativo e che lascia ben sperare, però, riguarda la percezione del rischio: 9 adolescenti su 10 ritengono la diffusione di contenuti deepfake un pericolo concreto, e quasi 7 su 10 sarebbero pronti a denunciarlo.
© Riproduzione riservata
Tag dell'articolo
Intelligenza artificialeLuce